Chuyển bộ gõ


Từ điển Oxford Learners Wordfinder Dictionary
Markov process


noun
a simple stochastic process in which the distribution of future states depends only on the present state and not on how it arrived in the present state
Syn:
Markoff process
Hypernyms:
stochastic process
Hyponyms:
Markov chain, Markoff chain


Giới thiệu VNDIC.net | Plugin từ diển cho Firefox | Từ điển cho Toolbar IE | Tra cứu nhanh cho IE | Vndic bookmarklet | Học từ vựng | Vndic trên web của bạn

© Copyright 2006-2024 VNDIC.NET & VDICT.CO all rights reserved.